21 research outputs found

    Sequential Model Selection Method for Nonparametric Autoregression

    Full text link
    In this paper for the first time the nonparametric autoregression estimation problem for the quadratic risks is considered. To this end we develop a new adaptive sequential model selection method based on the efficient sequential kernel estimators proposed by Arkoun and Pergamenshchikov (2016). Moreover, we develop a new analytical tool for general regression models to obtain the non asymptotic sharp or- acle inequalities for both usual quadratic and robust quadratic risks. Then, we show that the constructed sequential model selection proce- dure is optimal in the sense of oracle inequalities.Comment: 30 page

    Nonparametric estimation for an autoregressive model

    Get PDF
    The paper deals with the nonparametric estimation problem at a given fixed point for an autoregressive model with unknown distributed noise. Kernel estimate modifications are proposed. Asymptotic minimax and efficiency properties for proposed estimators are shown.Comment: 14 page

    Sequential robust estimation for nonparametric autoregressive models

    Get PDF
    International audienceWe construct a robust truncated sequential estimator for the point- wise estimation problem in nonparametric autoregression models with smooth coe cients. For Gaussian models we propose an adaptive pro- cedure based on the constructed sequential estimators. The minimax nonadaptive and adaptive convergence rates are established. It turns out that in this case these rates are the same as for regression models

    Nonparametric estimation for an autoregressive models

    No full text
    This thesis is devoted to nonparametric estimation for autoregressive models. We consider the problem of estimating an unknown function at a fixed point using data governed by autoregressive models. To define the risk associated with the use of an estimator and thus measure the quality of it, we use the loss function related to the absolute error. The work of this thesis follows the minimax approach for which the goal is to find a lower bound of the asymptotic minimax risk and then to construct an estimator, said asymptotically efficient, for which the maximum risk reaches asymptotically this bound. For a nonparametric autoregressive model where the autoregressive function is supposed to belong to a weak H\"{o}lder class with known regularity, we show that a kernel estimator is asymptotically efficient. When the regularity of the autoregressive function is unknown, we get the minimax adaptive convergence rate of estimators on a family of H\"{o}lderian classes.\\Cette thèse se consacre à l'estimation non paramétrique pour les modèles autorégressifs. Nous considérons le problème de l'estimation d'une fonction inconnue en un point fixe à l'aide de données régies par des modèles autorégressifs. Pour définir le risque associé à l'emploi d'un estimateur et ainsi mesurer la qualité de celui-ci, nous utilisons la fonction de perte liée à l'erreur absolue. Le travail de cette thèse suit l'approche minimax dont l'objectif est de trouver une borne inférieure asymptotique du risque minimax puis de construire un estimateur, dit asymptotiquement efficace, dont le risque maximal atteint asymptotiquement cette borne. Pour un modèle autorégressif non paramétrique où la fonction autorégressive est supposée appartenir à une classe H\"{o}ldérienne faible de régularité connue, nous montrons qu'un estimateur à noyau est asymptotiquement efficace. Lorsque la régularité de la fonction autorégressive est inconnue, nous obtenons la vitesse de convergence minimax adaptative des estimateurs sur une famille de classes H\"{o}ldériennes.\

    Sequential adaptive estimators in nonparametric autoregressive models

    No full text
    We constuct a sequential adaptive procedure for estimating the autoregressive function at a given point in nonparametric autoregression models with Gaussian noise. We make use of the sequential kernel estimators. The optimal adaptive convergence rate is given as well as the upper bound for the minimax risk

    Adaptive estimators in nonparametric autoregressive models

    No full text
    International audienceThis paper deals with the estimation of a autoregression function at a given point in nonparametric autoregression models with Gaussian noise. An adaptive kernel estimator which attains the minimax rate is constructed for the minimax risk

    Sequential

    No full text
    robust efficient estimation for nonparametric autoregressive model

    Estimation non paramétrique pour les modèles autorégressifs

    No full text
    Cette thèse se consacre à l'estimation non paramétrique pour les modèles autorégressifs. Nous considérons le problème de l'estimation d'une fonction inconnue en un point fixe à l'aide de données régies par des modèles autorégressifs. Pour définir le risque associé à l'emploi d'un estimateur et ainsi mesurer la qualité de celui-ci, nous utilisons la fonction de perte liée à l'erreur absolue. Le travail de cette thèse suit l'approche minimax dont l'objectif est de trouver une borne inférieure asymptotique du risque minimax puis de construire un estimateur, dit asymptotiquement efficace, dont le risque maximal atteint asymptotiquement cette borne. Pour un modèle autorégressif non paramétrique où la fonction autorégressive est supposée appartenir à une classe Höldérienne faible de régularité connue, nous montrons qu'un estimateur à noyau est asymptotiquement efficace. Lorsque la régularité de la fonction autorégressive est inconnue, nous obtenons la vitesse de convergence minimax adaptative des estimateurs sur une famille de classes Höldériennes.This thesis is devoted to nonparametric estimation for autoregressive models. We consider the problem of estimating an unknown function at a fixed point using data governed by autoregressive models. To define the risk associated with the use of an estimator and thus measure the quality of it, we use the loss function related to the absolute error. The work of this thesis follows the minimax approach for which the goal is to find a lower bound of the asymptotic minimax risk and then to construct an estimator, said asymptotically efficient, for which the maximum risk reaches asymptotically this bound. For a nonparametric autoregressive model where the autoregressive function is supposed to belong to a weak Hölder class with known regularity, we show that a kernel estimator is asymptotically efficient. When the regularity of the autoregressive function is unknown, we get the minimax adaptive convergence rate of estimators on a family of Hölderian classes.ROUEN-BU Sciences Madrillet (765752101) / SudocSudocFranceF
    corecore